A Hierarchical Latent Vector Model for Learning Long-Term Structure in Music
1枚まとめ
どんなもの?
でもドラムもやってるんだよな・・・
GoogleのMagentaプロジェクト
Adam Roberts
Google Brain
長い構造のsequential dataをVAEでモデリングする(Recurrent VAE)のは難しかったが、階層的なrecurrentなデコーダーを利用することでposterior collapseを回避することができた 先行研究と比べてどこがすごい?
似たようなrecurrent VAEとは、decoderの構造が異なり(階層的なdecoder)、それによってposterior collapseを回避
自己回帰モデルのdecoderを用いたもの
階層的なAutoencoder
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
リンク